-
1 звено цепи
1. adj1) construct. maille2) mech.eng. chaînon, maillon2. n1) eng. élément de chaîne2) mech.eng. anneau de la chaîne, maille de chaîne, maillon de la chaîne -
2 элемент строки
n
См. также в других словарях:
Chaine de desintegration — Chaîne de désintégration Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope… … Wikipédia en Français
Chaîne De Désintégration — Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope instable, permettant d arriver à … Wikipédia en Français
Chaîne radioactive — Chaîne de désintégration Une chaîne de désintégration, ou chaîne radioactive, ou désintégration en cascade, ou encore filiation radioactive, désigne une série de désintégrations, apparaissant par transformation spontanée d un radioisotope… … Wikipédia en Français
chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… … Encyclopédie Universelle
chaîné — chaîne [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême.… … Encyclopédie Universelle
Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne de markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français